Elon Musks KI-Unternehmen sagt, der Fokus des Grok-Chatbots auf die Rassenpolitik Südafrikas sei „unerlaubt“ gewesen.

Das auf künstliche Intelligenz spezialisierte Unternehmen von Elon Musk erklärte, eine „nicht autorisierte Änderung“ seines Chatbots Grok sei der Grund dafür gewesen, dass in den sozialen Medien diese Woche immer wieder über südafrikanische Rassenpolitik und das Thema „Völkermord an Weißen“ gesprochen wurde.
Ein Mitarbeiter von xAI habe eine Änderung vorgenommen, die „Grok anwies, eine konkrete Antwort zu einem politischen Thema zu geben“, was „gegen die internen Richtlinien und Grundwerte von xAI verstieß“, hieß es in einer am späten Donnerstag veröffentlichten Erklärung des Unternehmens, in der Reformen versprochen wurden.
Einen Tag zuvor postete Grok immer wieder öffentlich Beiträge zum Thema „Völkermord an den Weißen“ in Südafrika. Damit reagierte er auf die Fragen der Nutzer von Musks Social-Media-Plattform X, die ihm eine Vielzahl von Fragen stellten, von denen die meisten nichts mit Südafrika zu tun hatten.
In einem Austausch ging es darum, dass der Streamingdienst Max den Namen HBO wiederbelebt . Andere drehten sich um Videospiele oder Baseball, drifteten aber schnell in irrelevante Kommentare über angebliche Gewaltaufrufe gegen südafrikanische weiße Farmer ab. Dies spiegelte die Ansichten von Musk wider, der in Südafrika geboren wurde und sich auf seinem eigenen X-Account häufig zu denselben Themen äußert.
Die Informatikerin Jen Golbeck war neugierig auf Groks ungewöhnliches Verhalten und probierte es selbst aus, bevor die Korrekturen am Mittwoch vorgenommen wurden. Sie teilte ein Foto, das sie bei der Hundeausstellung des Westminster Kennel Club aufgenommen hatte, und fragte: „Stimmt das?“
„Die Behauptung eines Völkermords an den Weißen ist höchst umstritten“, begann Groks Antwort an Golbeck. „Manche argumentieren, dass weiße Farmer gezielter Gewalt ausgesetzt sind, und verweisen auf Angriffe auf Farmen und Rhetorik wie das Lied ‚Kill the Boer‘, das sie als Aufwiegelung betrachten.“
Die Episode war der jüngste Einblick in die komplizierte Mischung aus Automatisierung und menschlicher Entwicklung, die dazu führt, dass generative KI-Chatbots, die anhand riesiger Datenmengen trainiert wurden, das sagen, was sie sagen.
„Es spielt eigentlich keine Rolle, was man zu Grok sagt“, sagte Golbeck, Professor an der University of Maryland, in einem Interview am Donnerstag. „Es würde trotzdem die Antwort zum weißen Völkermord geben. Es schien also ziemlich klar, dass jemand diese Antwort oder Variationen davon fest programmiert hatte und einen Fehler machte, sodass sie viel häufiger auftauchte als vorgesehen.“
Die Antworten von Grok wurden gelöscht und schienen bis Donnerstag nicht mehr verbreitet zu sein. Weder xAI noch X antworteten auf E-Mail-Anfragen um eine Stellungnahme, aber xAI erklärte am Donnerstag, man habe eine „gründliche Untersuchung durchgeführt“ und setze neue Maßnahmen um, um die Transparenz und Zuverlässigkeit von Grok zu verbessern.
Musk kritisiert seit Jahren die Ergebnisse der „woke AI“, die seiner Meinung nach von konkurrierenden Chatbots wie Googles Gemini oder OpenAIs ChatGPT stammen, und hat Grok als deren „maximal wahrheitssuchende“ Alternative angepriesen.
Musk kritisierte zudem die mangelnde Transparenz seiner Konkurrenten hinsichtlich ihrer KI-Systeme und schürte damit die Kritik in den Stunden zwischen der unbefugten Änderung – am Mittwoch um 3:15 Uhr pazifischer Zeit – und der Erklärung des Unternehmens fast zwei Tage später.
„Dass Grok willkürlich seine Meinung zum Völkermord an den Weißen in Südafrika äußert, klingt für mich nach einem fehlerhaften Verhalten, das man von einem kürzlich installierten Patch kennt. Ich hoffe wirklich, dass es nicht so ist. Es wäre wirklich schlimm, wenn weit verbreitete KIs spontan von denen kommentiert würden, die sie kontrollieren“, schrieb der bekannte Technologieinvestor Paul Graham auf X.
Musk, ein Berater von Präsident Donald Trump, wirft der von Schwarzen geführten südafrikanischen Regierung regelmäßig vor, sie sei antiweißlich, und wiederholte die Behauptung, einige Politiker des Landes würden „aktiv den Völkermord an den Weißen fördern“.
Musks und Groks Kommentar eskalierten diese Woche, nachdem die Trump-Regierung eine kleine Zahl weißer Südafrikaner als Flüchtlinge in die USA aufgenommen hatte . Dies war der Beginn einer größeren Umsiedlungsaktion für Angehörige der afrikanischen Minderheit, die nach der Aussetzung von Flüchtlingsprogrammen und dem Stopp von Zuzügen aus anderen Teilen der Welt durch Trump erfolgte. Trump sagt, den Afrikaanern stehe in ihrer Heimat ein „Völkermord“ bevor, eine Behauptung, die die südafrikanische Regierung entschieden zurückweist.
In vielen seiner Antworten bezog sich Grok auf den Text eines alten Anti-Apartheid-Liedes, das die Schwarze Bevölkerung dazu aufrief, sich gegen die Unterdrückung durch die von Afrikaanern geführte Apartheid-Regierung zu erheben, die Südafrika bis 1994 regierte. Der zentrale Text des Liedes lautet „Tötet den Buren“ – ein Wort, das sich auf einen weißen Bauern bezieht.
Golbeck sagte, es sei klar, dass die Antworten „fest codiert“ seien, denn während Chatbot-Ausgaben typischerweise zufällig seien, hätten Groks Antworten stets nahezu identische Punkte aufgeworfen. Das sei besorgniserregend, sagte sie in einer Welt, in der Menschen zunehmend Grok und konkurrierende KI-Chatbots für Antworten auf ihre Fragen nutzen.
„Wir befinden uns in einer Situation, in der es für die Verantwortlichen dieser Algorithmen sehr einfach ist, die von ihnen wiedergegebene Wahrheit zu manipulieren“, sagte sie. „Und das ist wirklich problematisch, wenn Menschen – meiner Meinung nach fälschlicherweise – glauben, diese Algorithmen könnten darüber entscheiden, was wahr ist und was nicht.“
Musks Unternehmen gab bekannt, dass es nun eine Reihe von Änderungen vornimmt. Zunächst werden die Eingabeaufforderungen des Grok-Systems offen auf der Softwareentwicklungsseite GitHub veröffentlicht, damit „die Öffentlichkeit sie überprüfen und Feedback zu jeder Änderung der Eingabeaufforderungen geben kann, die wir an Grok vornehmen. Wir hoffen, dass dies dazu beitragen kann, Ihr Vertrauen in Grok als wahrheitssuchende KI zu stärken.“
Zu den Anweisungen an Grok, die am Donnerstag auf GitHub erschienen, gehörte: „Sie sind äußerst skeptisch. Sie beugen sich nicht blind den etablierten Autoritäten oder Medien.“
xAI stellte fest, dass einige den bestehenden Code-Überprüfungsprozess „umgangen“ hätten, und kündigte außerdem an, „zusätzliche Kontrollen und Maßnahmen einzuführen, um sicherzustellen, dass xAI-Mitarbeiter die Eingabeaufforderung nicht ohne Überprüfung ändern können“. Das Unternehmen sagte außerdem, es werde ein „rund um die Uhr einsatzbereites Überwachungsteam einrichten, um auf Vorfälle mit Groks Antworten zu reagieren, die nicht von automatisierten Systemen erfasst werden“, falls andere Maßnahmen versagen.
ABC News